我们描述了分散的旋转翼无人机套件的编排,从而增强了陆地基站的覆盖范围和服务能力。我们的目标是最大程度地减少在泊松到达下的地面用户处理传输请求中涉及的时间平均水平的潜伏期,但要受到平均无人机限制。配备速率适应能够有效利用空对地面通道随机,我们首先通过半马尔可夫决策过程制定了单个继电器的最佳控制策略,并具有针对无人机轨迹设计的竞争性群体优化。因此,我们详细介绍了这种结构的多尺度分解:径向等待速度的外部决策和结束位置优化了预期的长期延迟功率权衡;因此,关于角度等待速度,服务时间表和无人机轨迹的内部决策贪婪地最大程度地减少了瞬时延迟功率成本。接下来,通过复制和共识驱动的命令和控制概括无人机群,该政策嵌入了传播最大化和冲突解决启发式方法。我们证明,我们的框架提供了卓越的性能相对于平均服务等待和平均每个UAV功耗:相对于静态无人机部署的数据有效载荷交付的速度快11倍,并且比Deep-Q网络解决方案快2倍;值得注意的是,我们的计划中的一个继电器在联合连续的凸面近似政策下超出了三个继电器62%。
translated by 谷歌翻译
联合学习(FL)已成为跨无线边缘设备分配机器学习的流行方法。在这项工作中,我们考虑在设备 - 服务器通信延迟和设备计算异质性下优化FL的模型性能和资源利用之间的权衡。我们提出的StofedDelav算法将本地 - 全局模型组合器包含到FL同步步骤中。我们理论上表征了Stofeddelav的收敛行为,并获得了最佳的组合权重,这考虑了每个设备的全局模型延迟和预期的局部梯度误差。然后,我们制定了一种网络感知优化问题,该问题调整设备的小靶尺寸,以共同最大限度地减少能量消耗和机器学习训练丢失,并通过一系列凸起近似来解决非凸面问题。我们的模拟表明,当调整小批准和组合重量时,STOFeddelav在模型收敛速度和网络资源利用方面优于目前的艺术。此外,我们的方法可以减少模型训练期间所需的上行链路通信轮的数量,以达到相同的精度。
translated by 谷歌翻译
联合学习产生了重大兴趣,几乎所有作品都集中在一个“星形”拓扑上,其中节点/设备每个都连接到中央服务器。我们远离此架构,并将其通过网络维度扩展到最终设备和服务器之间存在多个节点的情况。具体而言,我们开发多级混合联合学习(MH-FL),是层内模型学习的混合,将网络视为基于多层群集的结构。 MH-FL认为集群中的节点中的拓扑结构,包括通过设备到设备(D2D)通信形成的本地网络,并假设用于联合学习的半分散式架构。它以协作/协作方式(即,使用D2D交互)在不同网络层处的设备进行编程,以在模型参数上形成本地共识,并将其与树形层次层的层之间的多级参数中继相结合。我们相对于网络拓扑(例如,光谱半径)和学习算法的参数来得出MH-F1的收敛的大界限(例如,不同簇中的D2D圆数的数量)。我们在不同的集群中获得了一系列D2D轮的政策,以保证有限的最佳差距或收敛到全局最佳。然后,我们开发一个分布式控制算法,用于MH-FL在每个集群中调整每个集群的D2D轮,以满足特定的收敛标准。我们在现实世界数据集上的实验验证了我们的分析结果,并展示了MH-FL在资源利用率指标方面的优势。
translated by 谷歌翻译
我们提出了一种基于最佳传输的分类数据集中分布变化的方法。它允许用户确定每个班级受轮班影响的程度,并检索相应的样本对以提供有关其性质的见解。我们说明了它在合成和自然转移示例中的使用。尽管我们提出的结果是初步的,但我们希望这激发了未来的可解释方法的工作,以分析分配变化。
translated by 谷歌翻译
我们提出了一种对任何概率基础预测进行核对的原则方法。我们展示了如何通过通过贝叶斯规则合并底部预测和上层时间序列中包含的信息来获得概率对帐。我们在玩具层次结构上说明了我们的方法,展示了我们的框架如何允许对任何基本预测的概率对帐。我们对计数时间序列的时间层次结构进行对帐进行实验,与基于高斯或截短的高斯分布相比,获得了重大改进。
translated by 谷歌翻译
深度神经网络(DNNS)和数据集的增长不断上升,这激发了对同时选择和培训的有效解决方案的需求。许多迭代学习者的高参数优化方法(HPO)的许多方法,包括DNNS试图通过查询和学习响应表面来解决该问题的最佳表面来解决此问题。但是,这些方法中的许多方法都会产生近视疑问,不考虑有关响应结构的先验知识和/或执行偏见的成本感知搜索,当指定总成本预算时,所有这些都会加剧识别表现最好的模型。本文提出了一种新颖的方法,称为迭代学习者(BAPI),以在成本预算有限的情况下解决HPO问题。 BAPI是一种有效的非洋流贝叶斯优化解决方案,可以说明预算,并利用有关目标功能和成本功能的先验知识来选择更好的配置,并在评估期间(培训)做出更明智的决策。针对迭代学习者的不同HPO基准测试的实验表明,在大多数情况下,BAPI的性能比最先进的基线表现更好。
translated by 谷歌翻译
在关键安全应用中,当没有可解释的解释时,从业者不愿信任神经网络。许多尝试提供此类解释的尝试围绕基于像素的属性或使用先前已知的概念。在本文中,我们旨在通过证明\ emph {高级,以前未知的地面概念}来提供解释。为此,我们提出了一个概率建模框架来得出(c)插入(l)收入和(p)rediction(clap) - 基于VAE的分类器,该分类器使用可视上可解释的概念作为简单分类器的预测指标。假设是基本概念的生成模型,我们证明拍手能够在达到最佳分类精度的同时识别它们。我们对合成数据集的实验验证了拍手确定合成数据集的不同基础真相概念,并在医疗胸部X射线数据集上产生有希望的结果。
translated by 谷歌翻译
我们介绍了延迟感知网络加速度(LANA) - 一种在神经结构上建立的方法,用于加速神经网络的神经结构搜索技术和教师学生蒸馏。 Lana由两个阶段组成:在第一阶段,它会使用层面特征映射蒸馏来列举每层教师网络的许多替代操作。在第二阶段,它解决了使用新颖的整数线性优化(ILP)方法的有效操作的组合选择。 ILP带来独特的属性,因为它(i)在几秒钟内执行NAS,(ii)轻松满足预算约束,(iii)在图层粒度上工作,(iv)支持巨大的搜索空间$ o(10 ^ { 100})$,超越先前的搜索方法,效率和效率。在广泛的实验中,我们表明Lana产生了由目标潜伏期预算限制的有效和准确的模型,同时比其他技术明显快。我们分析了三个流行的网络架构:高效的网络,高效网络和reses,并在压缩较大模型的较小模型的延迟级别时,实现所有型号(高达3.0 \%$)的准确性改进。 Lana通过GPU和CPU实现显着的加速(高达5美元\倍),以没有准确性下降。代码将很快分享。
translated by 谷歌翻译
We introduce stochastic variational inference for Gaussian process models. This enables the application of Gaussian process (GP) models to data sets containing millions of data points. We show how GPs can be variationally decomposed to depend on a set of globally relevant inducing variables which factorize the model in the necessary manner to perform variational inference. Our approach is readily extended to models with non-Gaussian likelihoods and latent variable models based around Gaussian processes. We demonstrate the approach on a simple toy problem and two real world data sets.
translated by 谷歌翻译